OpenAI Insiders предупреждават за „безразсъдна“ надпревара за господство
Група от OpenAI вътрешни лица освиркват това, което съгласно тях е просвета на неблагоразумие и секретност в изкуствения център в Сан Франциско разследваща компания, която се надпреварва да сътвори най-мощния ИИ. системи, създавани в миналото.
Групата, която включва девет сегашни и някогашни чиновници на OpenAI, се сплоти през последните дни към споделени опасения, че компанията не е направила задоволително, с цел да предотврати своя ИИ. системите да станат рискови.
Членовете споделят, че OpenAI, която стартира като изследователска лаборатория с нестопанска цел и избухна в общественото пространство с стартирането на ChatGPT през 2022 година, слага приоритет върху облагите и напредък, защото се пробва да построи неестествен общ разсъдък, или A.G.I., индустриалният термин за компютърна стратегия, способна да направи всичко, което човек може.
Те също настояват, че OpenAI има използваха твърда тактичност, с цел да попречат на служащите да изразят терзанията си по отношение на технологията, в това число ограничаващи съглашения за недопускане на неуважение, които напускащите чиновници бяха помолени да подпишат.
отворено писмо във вторник, призоваващо водещите И.И. компании, в това число OpenAI, за определяне на по-голяма бистрота и повече отбрани за лицата, подаващи сигнали.
Други членове включват Уилям Сондърс, проучвателен инженер, който напусна OpenAI през февруари, и трима други някогашни чиновници на OpenAI: Карол Уейнрайт, Джейкъб Хилтън и Даниел Зиглер. Няколко сегашни чиновници на OpenAI утвърдиха писмото анонимно, тъй като се опасяваха от възмездие от компанията, сподели господин Кокотайло. Един сегашен и един някогашен чиновник на Гугъл DeepMind, централният изкуствен интелект на Гугъл. lab, също подписано.
Говорителят на OpenAI, Линдзи Хелд, сподели в изказване: „ Гордеем се с нашия опит, предоставящ най-способния и най-безопасен ИИ. системи и имаме вяра в нашия теоретичен метод за справяне с риска. Съгласни сме, че строгият спор е от решаващо значение поради смисъла на тази технология и ще продължим да се ангажираме с държавните управления, гражданското общество и други общности по света. “
A Говорителят на Гугъл отхвърли коментар.
Кампанията идва в сложен миг за OpenAI. Тя към момента се възвръща от опита за прелом предходната година, когато членовете на борда на компанията гласоподаваха да уволнят Сам Алтман, основен изпълнителен шеф, заради опасения по отношение на неговата искреност. Г-н Алтман беше върнат дни по-късно и бордът беше модифициран с нови членове.
съди OpenAI и неговия сътрудник, Microsoft, за нарушение на авторски права предходната година.) И неотдавнашното показване на хиперреалистичен гласов помощник беше помрачено от обществен спор с холивудската актриса Скарлет Йохансон, която твърдеше, че OpenAI е имитирал гласа й без позволение.
Но нищо не остана по този начин, както обвиняването, че OpenAI е бил прекомерно джентълменски по отношение на сигурността.
Миналия месец двама старши A.I. откривателите - Иля Суцкевер и Ян Лейке - оставиха OpenAI под облак. Д-р Съткевер, който беше в борда на OpenAI и гласоподава за уволнението на господин Алтман, повдигна паника за евентуалните опасности от мощен ИИ. системи. Неговото овакантяване беше възприето от някои загрижени за сигурността чиновници като спънка.
Така беше и напускането на доктор Лейке, който дружно с доктор Суцкевер ръководеше „ суперорганизацията “ на OpenAI екип, който се концентрира върху ръководството на рисковете от мощен ИИ. модели. В поредност от обществени изявления, обявяващи напускането си, доктор Лейке сподели, че има вяра, че „ културата и процесите на сигурност са отстъпили на назад във времето пред лъскавите артикули. “
Нито доктор. Суцкевер, нито доктор Лейке подписаха отвореното писмо, написано от някогашни чиновници. Но техните напускания подтикнаха други някогашни чиновници на OpenAI да приказват.
„ Когато се записах за OpenAI, не се записах за това отношение на „ Нека изложим нещата на света и да забележим какво ще се случи и да ги изправим по-късно, ” сподели господин Сондърс. система може да поеме властта и да унищожи човечеството.
поредност от отчети, че Bing се държи необичайно по отношение на потребителите — не направи нищо, с цел да спре Microsoft да го популяризира по-широко.
Говорителят на Microsoft, Франк Шоу, оспори тези изказвания. Той сподели, че тестванията в Индия не са употребявали GPT-4 или модели на OpenAI. Първият път, когато Microsoft пусна технология, основана на GPT-4, беше при започване на 2023 година, сподели той, и беше прегледана и утвърдена от предходник на борда за сигурност.
В последна сметка, Г-н Кокотайло сподели, че станал толкоз обезпокоен, че предходната година споделил на господин Алтман, че компанията би трябвало да се „ насочи към сигурността “ и да отдели повече време и запаси, с цел да се защищити от рисковете на изкуствения разсъдък, вместо да зарежда напред, с цел да усъвършенства своите модели. Той сподели, че господин Алтман е твърдял, че е склонен с него, само че нищо не се е трансформирало изключително.
През април той напусна. В имейл до екипа си той сподели, че напуща, тъй като е „ изгубил убеденост, че OpenAI ще се държи отговорно “, защото системите му се приближават до интелекта на човешко равнище.
Миналата седмица сподели, че е почнал да образова нов водещ модел на ИИ, и че образува нов комитет за сигурност и сигурност, който да изследва рисковете, свързани с новия модел и други бъдещи технологии.
На излизане господин Кокотайло отхвърли да подпишат общоприетите документи на OpenAI за напускащи чиновници, които включват прецизна уговорка за недопускане на неуважение, забраняваща им да приказват отрицателни неща за компанията, или в противоположен случай рискуват да бъдат отнети личния им капитал.
Много чиновници биха могли да изгубят милиони долари, в случай че откажат да подпишат личния капитал на господин Кокотайло е на стойност почти 1,7 милиона $, сподели той, което възлиза на по-голямата част от неговото чисто положение, и той е подготвен да се лиши от него.
(Миналия месец последва дребна огнена стихия, откакто Vox заяви вести за тези съглашения. В отговор OpenAI съобщи, че в никакъв случай не е извлякъл капитал от някогашни чиновници и няма да го направи. Г-н Алтман сподели, че е „ в действителност обезпокоен “, че не е знаел за споразуменията, и компанията сподели, че ще отстрани клаузите за недопускане на неуважение от общоприетата си документи и ще освободи някогашните чиновници от техните съглашения.)
стана адресант на сигнали и упрекна тази компания, че слага облагите пред сигурността.
В изявление господин Лесиг сподели, че до момента в който обичайните отбрани на подателите на сигнали нормално се ползват към отчети за противозаконна активност, значимо за чиновниците на A.I. фирмите да могат да разискват рисковете и евентуалните вреди свободно, като се има поради значимостта на технологията.
„ Служителите са значима линия на отбрана на сигурността и в случай че не могат да приказват свободно без отмъщение, този канал ще бъде затворен, ” сподели той.
Ms. Хелд, представител на OpenAI, сподели, че компанията има „ пътища за чиновниците да изразят своите опасения “, в това число анонимна гореща линия за честност.
Г-н. Кокотайло и неговата група са скептични, че саморегулирането ще бъде задоволително, с цел да се подготвим за свят с по-мощен ИИ. системи. Затова те приканват законодателите да контролират и промишлеността.
„ Трябва да има някаква демократично виновна, транспарантна управническа конструкция, която да дава отговор за този развой “, господин.. Кокотайло сподели „ Вместо единствено няколко разнообразни частни компании да се състезават една с друга и да пазят всичко в загадка. “